عادت شركة "ديب سييك" الصينية إلى الواجهة مرة أخرى بعد طرحا نموذجها المحدث من R1 الخاص بها على منصة Hugging face لتعود المنافسة المحتدمة بين أدوات الذكاء الاصطناعي مفتوحة المصدر ومغلقة المصدر.
وتأتي النسخة المطورة، المُسماة DeekSeek-R1-0528، بـ 685 مليار بارامتر، وهي ترقيةٌ عن إصدار يناير الذي كان يحتوي على 671 مليار بارامتر في الشبكة العصبية للنظام.
وعلى عكس نماذج OpenAI وGoogle، المعروفة بنماذجها مغلقة المصدر، فإن أوزان نماذج DeepSeek متاحةٌ للعامة.
ووفقًا للمعايير، فقد حسّن تحديث R1-0528 قدرات التفكير والاستدلال، ويُقلص الفجوة مع O3 من OpenAI وGemini 2.5 Pro من جوجل.
كما قدمت DeepSeek نسخةً مُحسّنةً من R1-0528 باستخدام نموذج Qwen3 8B من علي بابا و يُعد هذا مثالًا على نموذج خفيف الوزن، أقل قدرةً ولكنه يتطلب أيضًا طاقة حوسبة أقل.
ويتفوق DeepSeek-R1-0528-Qwen3-8B الذي يجمع بين قدرات علي بابا وديب سيك على أحدث طراز خفيف الوزن من جوجل، Gemini-2.5-Flash-Thinking-0520، وO3-mini من OpenAI في بعض اختبارات الأداء. ولكن الأهم هو أن طراز DeekSeek المُحسّن يُمكن تشغيله على وحدة معالجة رسومات واحدة، وفقًا لموقع TechCrunch.
وتسعى الشركة الصينية من خلال إدخال كل هذه التحسينات على منتجاتها إلى اللحاق بركب المنافسة مع الشركات الأمرييكية وخاصة "ميتا" و "جوجل" و "أوبن إيه آي" من خلال نهج مفتوح الوزن أرخص وأسهل في الوصول.
بالإضافة إلى ذلك، يُثبت DeepSeek أن نماذج الذكاء الاصطناعي قد لا تتطلب نفس قوة الحوسبة التي تستخدمها OpenAI وGoogle وشركات الذكاء الاصطناعي الأخرى ذات الثقل الكبير حاليًا. يكفي القول، ترقبوا هذا.
ومع ذلك، فإن نماذج DeepSeek لها عيوبها أيضًا ووفقًا لأحد مطوري الذكاء الاصطناعي فإن تحديث DeepSeek الجديد أكثر رقابة من إصداره السابق فيما يتعلق بانتقادات الحكومة الصينية.
